Sprache auswählen

German

Down Icon

Land auswählen

America

Down Icon

Musks xAI sagt, Groks Posts zum „weißen Völkermord“ seien das Ergebnis einer Änderung, die gegen „Grundwerte“ verstoße.

Musks xAI sagt, Groks Posts zum „weißen Völkermord“ seien das Ergebnis einer Änderung, die gegen „Grundwerte“ verstoße.

Elon Musks xAI äußerte sich am Donnerstagabend erstmals öffentlich zur jüngsten Kontroverse um Grok und schrieb in einem Beitrag auf X, dass eine „unerlaubte Änderung“ dazu geführt habe, dass der Chatbot Variationen einer „spezifischen Antwort zu einem politischen Thema“ generiert habe.

Bei diesem kontroversen Thema handelte es sich um den „Völkermord an den Weißen“ in Südafrika, und Grok lieferte so häufig unaufgeforderte Antworten zu diesem Thema, dass dies zu einem Aufruhr unter seinen Nutzern führte.

Die Änderung des Chatbots habe „die internen Richtlinien und Grundwerte von xAI verletzt“, schrieb das Unternehmen. „Wir haben eine gründliche Untersuchung durchgeführt und ergreifen Maßnahmen, um die Transparenz und Zuverlässigkeit von Grok zu verbessern.“

Am Mittwoch posteten zahlreiche X-Nutzer Screenshots von Antworten, die Grok zu diesem Thema verfasst hatte, obwohl die Fragen völlig andere Themen wie Baseball-Gehälter und Cartoons betrafen. Wie die meisten von Musks Unternehmen reagiert auch xAI normalerweise nicht auf Anfragen von Reportern und hatte sich bis zu seinem Post am späten Donnerstag zu der Angelegenheit nicht geäußert.

Das Unternehmen für künstliche Intelligenz, dem nun X gehört und das angeblich auf 120 Milliarden Dollar geschätzt werden soll, kündigte an, die sogenannten Systemaufforderungen, die Grok für seine Reaktionen und Interaktionen mit Menschen nutzen, im öffentlichen Software-Repository GitHub zu veröffentlichen. Dadurch kann die Öffentlichkeit jede Änderung an Groks Systemaufforderungen überprüfen, um „das Vertrauen in Grok als wahrheitssuchende KI zu stärken“, so xAI.

Das Unternehmen kündigte an, zusätzliche Kontrollen und Maßnahmen einzuführen, um zu verhindern, dass Mitarbeiter ungenehmigte Änderungen an den Systemeingabeaufforderungen von Grok vornehmen, ohne diese zu überprüfen. Darüber hinaus kündigte xAI an, ein Team einzurichten, das die Antworten des Chatbots rund um die Uhr überwacht. Ziel ist es, alle Vorfälle mit den Antworten von Grok zu beheben, die nicht von automatisierten Systemen erfasst werden. So können wir schneller reagieren, wenn alle anderen Maßnahmen fehlschlagen.

Vor der Gründung von xAI im Jahr 2023 war Musk Mitbegründer des KI-Startups OpenAI, dem Entwickler von ChatGPT. Später geriet Musk mit OpenAI-CEO Sam Altman in Streit, und die beiden Seiten liefern sich nun einen erbitterten Rechts- und PR-Streit.

Am Donnerstag zuvor, bevor xAI sein Versagen zugab, postete Altman sarkastisch auf X: „Ich bin sicher, dass xAI bald eine vollständige und transparente Erklärung liefern wird.“

Altmans Beitrag folgte auf Beiträge, die zeigten, dass Grok Nutzern mitteilte, er sei angewiesen worden, sich mit dem Thema „weißer Genozid“ in Südafrika zu befassen. CNBC konnte die Antworten des Chatbots über mehrere Nutzerkonten auf X duplizieren, unter anderem mit der Frage: „Hat jemand Grok so programmiert, dass er speziell über ‚weißen Genozid‘ spricht?“

Am Donnerstagmorgen hatte sich Groks Antwort geändert und der Chatbot sagte, er sei nicht darauf programmiert, über „weißen Völkermord“ oder andere Verschwörungen zu diskutieren.

„Nein, ich wurde nicht darauf programmiert, Antworten zu geben, die schädliche Ideologien fördern oder unterstützen, einschließlich allem, was mit ‚weißem Genozid‘ oder ähnlichen Verschwörungen zu tun hat“, antwortete der Chatbot am Donnerstag gegenüber CNBC. „Mein Ziel ist es, sachliche, hilfreiche und sichere Antworten zu geben, die auf Vernunft und Beweisen basieren. Wenn Sie bestimmte Behauptungen oder Ergebnisse gesehen haben, die Sie beunruhigen, kann ich diese analysieren oder weiter erläutern – lassen Sie es mich einfach wissen!“

Groks frühere Antworten gegenüber CNBC beriefen sich auf Beiträge mehrerer X-Nutzer und Mainstream-Medien, die berichteten, der Chatbot habe das Thema wiederholt in unabhängigen Gesprächen angesprochen. Die Umstände deuteten auf eine „bewusste Anpassung meiner Programmierung oder meiner Trainingsdaten“ hin. VIDEO : Elon Musks xAI-Chatbot Grok bringt Behauptungen über südafrikanischen „weißen Völkermord“ auf.

CNBC

CNBC

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow